45 research outputs found

    Diseño y construcción de un prototipo para la aplicación de la técnica Wave Field Synthesis

    Get PDF
    El objetivo principal de este Proyecto es diseñar y construir un prototipo para la aplicación de la técnica Wave Field Synthesis; para esto se realiza una revisión bibliográfica basando el Proyecto en anteriores estudios en los que personas fueron expuestas a dicho Sistema y así conocer la percepción Sonora de las personas frente a la técnica Wave Fiel Synthesis. Es el presente trabajo se muestra el diseño y construcción del prototipo, además de las mediciones objetivas y subjetivas que se realizaron para comprobar que dicho Sistema cumple con los objetivos propuestos.Universidad de San Buenaventura Bogot

    Control activo de ruido mediante técnicas de Wave Field Synthesis

    Full text link
    The aim of this work is to apply the techniques of Wave Field Synthesis (WFS) into Active Noise Control (ANC). It aims to generate a simulation environment which allows to study the possibilities of WFS systems from different geometries and configurations, in order to obtaining an effect of active control over noise. All this, in a relatively wide area of silence, from the generation of one anti-noise signal virtually positioned at the point where the noise source is. In order to do this, a review of the theoretical foundations of Active Noise Control, together with the Wave Field Synthesis techniques will be carried out. WFS viability of these systems in their application to ANC systems will also be studied. Finally, on the basis of the geometry and configuration of the system, as well as the characteristics and limitations of the noise source, a simulation environment will be developed in order to determine the performance and limitations of theses systems. It is intended that this work can serve as a starting point for further research to better understanding of WFS techniques applied to active noise control.El objetivo de este trabajo es aplicar las técnicas de Wave Field Synthesis (WFS) al Control Activo de Ruido (Active Noise Control, CAR o ANC). Se pretende generar un entorno de simulación que permita estudiar las posibilidades de los sistemas WFS, a partir de distintas geometrías y configuraciones, para obtener un efecto de control activo de ruido global, en una zona de silencio relativamente amplia, a partir de la generación de una señal de anti-ruido posicionada virtualmente en el punto donde está la fuente de ruido. Para ello, se realizará una revisión de los fundamentos teóricos del Control Activo de Ruido, así como de las técnicas de Wave Field Synthesis. Se estudiará la viabilidad de estos sistemas WFS en su aplicación a sistemas CAR, y se desarrollará un entorno de simulación que permita determinar el funcionamiento y las limitaciones de estos sistemas, partiendo de la geometría y configuración del sistema y de las características y localización de la fuente de ruido. Se pretende que este trabajo pueda servir de punto de partida para posteriores trabajos de investigación que permitan conocer mejor el funcionamiento y técnicas WFS aplicados al control activo de ruido.Cano Morcillo, A. (2014). Control activo de ruido mediante técnicas de Wave Field Synthesis. Universitat Politècnica de València. http://hdl.handle.net/10251/44936Archivo delegad

    Contribuciones a la implementación de sistemas Wave Field Synthesis

    Full text link
    De entre los sistemas de reproducción de sonido 3D, Wavefield Synthesis (WFS) presenta una serie de ventajas sobre el resto, principalmente en lo que respecta al gran realismo y sensación de inmersión acústica que proporciona. Otra gran ventaja adicional, es que la zona útil de escucha es muy amplia, superando al resto de sistemas disponibles en la actualidad. La teoría de WFS fue propuesta a finales de los 80 y principios de los 90, no siendo hasta el siglo XXI cuando se han puesto en marcha los primeros prototipos de estos sistemas, aunque muchos aspectos no contemplados en la teoría inicial siguen siendo en la actualidad retos importantes. La presente tesis aborda el estudio de la implementación de los sistemas de WFS aportando soluciones prácticas a las limitaciones tecnológicas que presentan estos sistemas, así como otra serie de problemas de implementación y funcionamiento en tiempo real que, aunque en una primera instancia no se describen como limitaciones físicas, suponen un problema a superar cuando se busca un sistema que funcione eficientemente. El objetivo final de esta tesis es aportar soluciones que contribuyan al desarrollo de un sistema de WFS totalmente funcional, por lo que durante su desarrollo ha sido necesario encontrar soluciones particulares y originales a multitud de problemas de diferente índole. Esta serie de problemas proviene por un lado de las limitaciones físicas de WFS y por otro de la implementación práctica del sistema. Por otro lado también se ha trabajo en los aspectos computacionales relacionados con la implementación en tiempo real de sistemas de WFS, los cuales necesitan una gran potencia de cálculo para dicho funcionamiento en tiempo real sin cortes ni grandes latencias. Este último se ha tratado de forma rigurosa dedicando un capítulo completo para su análisis y propuesta de soluciones eficientes y efectivas en coste.Bleda Pérez, S. (2009). Contribuciones a la implementación de sistemas Wave Field Synthesis [Tesis doctoral no publicada]. Universitat Politècnica de València. https://doi.org/10.4995/Thesis/10251/6685Palanci

    Desarrollo de herramientas de procesado y visualización para audio 3D con auriculares

    Full text link
    La Auralización o “realidad virtual acústica” es un término relativamente nuevo. Integra métodos de la física y la ingeniería acústica con la teoría de la Psicoacústica y de reproducción electroacústica [1]. El término Auralización es el análogo de la técnica de “visualización” en video 3D para el audio. En este Proyecto Fin de Carrera se describe el proceso de visualizar ciertas características, efectos o señales del sonido. Los sistemas estéreo convencionales son capaces de posicionar la imagen sonora o evento auditivo solamente en el arco virtual que une los dos altavoces. Una extensión directa de estos sistemas fueron los sistemas de sonido envolvente o sonido Surround, en donde se usan más de dos altavoces para crear una imagen sonora que se puede mover por todo el círculo que contiene a los altavoces. Por otro lado, los nuevos sistemas de audio 3D pueden posicionar la imagen sonora, usando solo altavoces (o unos auriculares), en cualquier punto de un espacio tridimensional alrededor del oyente. La Auralización describe el proceso de generación, procesado y playback de audio Surround a la altura de los oídos del oyente. Aplicaciones comunes son la resolución de un problema de Acustica, la mejora de una sala, la simulación de la respuesta en frecuencia de los altavoces para escucha con auriculares, la construcción de un edificio, un coche u otros productos. Ya que el fin último de los sistemas de audio 3D es convencer a los usuarios u oyentes de que el sonido es emitido desde una posición en la sala donde no existe físicamente una fuente o altavoz, no solo los parámetros físicos sino también los psicoacústicos juegan un papel fundamental en el diseño del sistema. El concepto de conseguir sonido tridimensional fue investigado por primera vez en relación con la modelización de campos sonoros en salas en 1929. Spandöck procesó señales derivadas de medidas en un modelo a escala de la sala con el fin de poder escuchar la acústica de la sala en el mismo laboratorio. La idea fue bien recibida, pero en esa época no había medios para ponerla en práctica. Veinte años después, en 1949, se inventaba la cinta magnética. Spandöck presenta finalmente su sistema basado en señales ultrasónicas, modelos de salas a escala y un grabador de cinta trabajando a diferentes velocidades. Los elementos básicos de la auralización se pusieron de manifiesto con este trabajo: modelado de campos sonoros, procesado y reproducción del sonido. Con el tremendo desarrollo de los computadores, el concepto de simulación y auralización fue reinventado por Schroeder a principios de 1960. No es hasta después, en la década de 1990 para cuando la era del procesado digital (DSP), las velocidades de procesador y espacio de memoria se hacen suficientemente potentes como para procesar simulaciones en ordenadores personales, el momento donde se introduce oficialmente el término Auralización. Otros campos de la acústica también han incluido este término en su argot para referirse a fenómenos relacionados con la espacialización del audio, particularmente en los ámbitos de ingeniería de sonido y acústica arquitectónica. Desde entonces, el software y hardware se ha perfeccionado considerablemente y hoy en día el software comercial para la simulación de salas acústicas se considera incompleto sin una opción de auralización mediante la tarjeta de sonido del PC o una interfaz de audio DA/AD. Buena parte del desarrollo de sistemas de audio 3D se ha basado en un único oyente posicionado en entornos anecoicos, lo que simplifica el análisis considerablemente. Sin embargo, esto acarrea normalmente que el sistema solo funcione debidamente en estos entornos aislados acusticamente. Para evitar este condicionamiento, se piensa en que los espacios de escucha sean salas reverberantes y por ello se caractericen con una respuesta al impulso de la sala (RIR) o su análogo en frecuencia la respuesta en frecuencia de la sala (RTF) de larga duración, debido a la reverberación. A una frecuencia de muestreo de 44.1 kHz (estándar de facto y también usada a lo largo de todo este proyecto) se necesitan miles de coeficientes para los filtros FIR que modelen fehacientemente una RIR. Es por ello que los sistemas de audio 3D requieren de una gran capacidad de cómputo por parte del host. Se hace indispensable aplicar la teoría de Fourier, en concreto algoritmos FFT, para trasladar el problema al dominio frecuencial con el fin de reducir la complejidad computacional. Aunque estas respuestas al impulso de larga duración puedan dificultar la implementación en tiempo real, permiten estudiar los efectos de un entorno/sala en el rendimiento del sistema. Los sistemas de audio 3D filtran señales de audio monofónicas mediante una matriz de filtros digitales que depende de la posición de la fuente sonora relativa al oyente; esto es, dependiente de las coordenadas polares (θ, φ, r). En general, las soluciones de estos filtros se componen de dos partes. La primera es la matriz de respuestas en frecuencia relacionadas con la cabeza (HRTFs) , que contiene la información direccional que el oyente debe percibir. Los coeficientes de esta matriz se obtienen normalmente de funciones de transferencia generalizadas y medidas previamente, p.ej. mediante una base de datos. La segunda es la red de cancelación de Crosstalk (cancelación de XT), que invierte la matriz de funciones de transferencia acústicas (entre altavoces y oídos del oyente) de la manera más realista y eficiente posible. Ya que las HRTFs varían considerablemente de un humano a otro debido a la compleja estructura de estas funciones, que dependen de la complexión física y psíquica así como de la estructura geométrica única de cada oído humano, calcular los filtros mediante HRTFs generalizadas degrada la imagen sonora percibida. En este Proyecto Fin de Carrera se desea describir en profundidad el estado del arte de estos sistemas así como crear un sistema de audio 3D de estas características usando el software Matlab® R2014b. Para ello, se calculan RIRs mediante una función específica para ello y las HRIRs se obtienen de bases de datos; estas ultimas se implementaron de cuatro formas. La primera es mediante un sencillo modelo matemático que modele una HRTF. Las dos siguientes son dos bases de datos de HRTFs, una elaborada en el MIT Media Lab [1] en Estados Unidos de América y otra por la universidad de Peking PKU en China, la última con la ventaja que depende también de la distancia fuente-receptor y que incluyen HRTFs para cada oído izquierdo (L) y derecho (R). El número de muestras y la frecuencia de muestreo para cada HRTF son fijas y valen 512 muestras y 44.1 kHz, respectivamente. Cada una de estas funciones corresponde con una respuesta al impulso finita (filtro FIR) con 512 coeficientes o taps. La última de las cuatros formas en la que se implementaron HRTFs en este Proyecto Fin de Carrera fue interpolando en las tres coordenadas (θ, φ, r) las HRTFs de la base de datos de la PKU. Si el sistema de auralización convoluciona un sonido con una BRIR que corresponda, por ejemplo, a un entorno reverberante con un tiempo de reverberación de aprox. 2 segundos, cada BRIR tendrá aproximadamente 23000 coeficientes a 44.1 kHz. Por tanto, se precisan métodos de convolución eficientes, procesadores potentes así como sistemas de interpolación y extracción de características binaurales para reducir el volumen de información en la medida de lo posible. Un sistema de auralización en tiempo real de alta calidad se presenta como un verdadero reto para la tecnología actual disponible. La solución es encontrar nuevas teorías y aproximaciones de simulación acústica de entornos y auralización con un balance entre precisión y tiempo de computo requerido para obtener el efecto 3D deseado. En este software de audio 3D desarrollado, la Auralización del audio original se consigue troceando por bloques la señal y dejando que el oyente defina una trayectoria en el espacio que la fuente trazará. Cada bloque de audio (que corresponde a un punto en la trayectoria) se convoluciona con una respuesta el impulso binaural de la sala (BRIR), obtenida de la convolución de la HRIR con la RIR. Los bloques procesados se solapan y suman usando el algoritmo de Solapamiento y Suma (Overlap and Add Algorithm OLA). Así se consiguen dos señales, una para cada oído. Estas señales tendrán que ser reproducidas con auriculares para la mejor experiencia.The Auralization of sound or Acoustic Virtual Reality or 3D Audio are new methods that use Physics and Sound Engineering together with the Psychoacoustic theory. Auralization of sound is the analogous of Visualization in the area of 3D Video. In this M Sc Thesis, the process of visualization of certain characteristics, effects and audio signals are investigated and developed. Conventional stereophonic systems are capable of positioning the sound image (or auditory event) only between the arc spanned by the two loudspeakers. The Surround systems were an extension of the stereophonic systems, where two or more loudspeakers were used to create an auditory image that can move through the whole circle spanned by the various loudspeakers. However, the newer 3D audio systems are capable of positioning the sound image at any point in a three-dimensional space using only two loudspeakers (or headphones). The process of auralization is, indeed, the generation, processing and playback pf surround sound at the listeners’ ears. Common applications of auralization are the simulation of a loudspeakers frequency response over headphones, the acoustic treatment of a room or building and also the acoustic simulation in a car or other systems. The goal of a 3D audio system is to trick the perception of the listener in order to make the sound emanate from a position in the room where a loudspeaker isn’t really there. Therefore, not only the physical but also the psychoacoustic parameters play a role in the system design. Three-dimensional sound was first investigated in 1929 related with the modeling of sound fields in rooms. Spandöck built small rooms such that the tests were carried out on a natural scale model. Doing so, the sound signals could be heard in the lab relatively easy. The idea was subtle, but in 1929 there wasn’t really a technology to put this in practice. Twenty years later the magnetic tape was invented. Spandöck finally brought forward his system based on ultrasonic signals and scaled room models. The fundamental elements of auralization were defined with his work: modeling sound fields, processing and reproduction of sound. With the formidable development of computers, the concept of simulation and auralization was re-written by Schroeder in the 1960s. Nevertheless, it is not until the 1990s when the DSPs, computer run-times and memories were big enough to run simulations in personal computers. It is then when the term Auralization is officially introduced. Other fields in Acoustics like in Audio Engineering have also introduced the term auralization to refer to the spatialization of sound. Since the 1990s, software and hardware have been improved considerably and nowadays commercial software for the simulation of sound in rooms is considered incomplete without an option of auralization via a sound interface or an AD/DA card. Much of the development of 3D audio systems has been based on a single user/microphone positioned in anechoic environments. This makes the analysis much easier but makes the system only usable in these acoustic isolated environments. To prevent this, one thinks in environment as a reverberant room modeled via a room impulse response (RIR) or the equivalent room transfer function (RTF). The RIR has a considerable duration because of the reverberation. Establishing the sample rate to 44.1 kHz (standard de facto and also the standard for this Thesis) one requires thousands of taps for the FIR filters that correctly model the RIR. This is the reason that 3D audio systems need great amounts of computing capacity by the host. Because of it the Fourier theory is indispensable: FFT algorithms for looking at the problem in the frequency domain and so reduce the complexity. Although these RIRs may cause difficulty in the implementation in real time, they enable to study the effects of a room in the global system. 3D audio systems filter audio signals using a matrix of filters that account for the position of the sound source relative to the receiver. That is, dependent on the polar coordinates (r, θ, ϕ). Generally speaking, the solutions to these filters are made up of two pieces. The first one is the Head-Related Transfer Functions (HRTF) matrix, which holds the directional information for the receiver. The matrix coefficients are derived from transfer functions which were previously measured or from a data base. The second one is the Crosstalk Cancelling Network. It reverts the acoustic transfer functions matrix (between loudspeakers and the ears of the listener) in the most realistic and efficient way. Because HRTFs vary a lot between humans, using generalized HRTFs degrades the perceived sound stage. The goal of this Thesis is to widely describe these 3D audio systems and also to develop a system using Matlab® R2014b. To this end, RIRs are computed using a function and HRIRs are extracted from data bases in four ways. The first way is to use a simple mathematical model. The second and third way are two HRTFs data bases, one developed at the MIT Media Lab in the USA [1] and the other at the Peking PKU in China. They include HRTFs for each ear left (L) and right (R). The third way has the advantage that it also depends on the source-receiver distance. The number of samples as well as the sample rate are fixed and of value 512 samples and 44.1 kHz, respectively. Each HRTF corresponds to a finite impulse response (FIR filter) with 512 samples or taps. The fourth way that HRTFs were obtained was by interpolating the HRTFs of the PKU database in the polar coordinates (r, θ, ϕ). Efficient convolution methods are required, powerful processors as well as interpolation systems to minimize the amount of data. The reason is that if an auralization system convolves an input sound with a BRIR that corresponds to a reverberation room with a reverberation time of let’s say, 2 seconds, each BRIR will have approx. 23000 taps at 44.1 kHz. An auralization system that operates in real time is a real challenge with the actual technology

    Generación de sonido audible con arrays de ultrasonidos

    Get PDF
    La generación de sonido audible mediante arrays de transductores ultrasónicos es posible gracias a los efectos no lineales que exhibe el aire cuando por él se propagan ondas de alta presión sonora. Así, la emisión de una señal portadora en el rango ultrasónico modulada en amplitud, frecuencia o fase por una señal moduladora en el rango audible, producirá sonido gracias a la autodemodulación de la señal en el aire como producto de intermodulación de segundo orden a la diferencia de frecuencia de las ondas ultrasónicas emitidas. De esta manera, es posible crear un dispositivo capaz de emitir sonido con las propiedades directivas de la portadora ultrasónica: el altavoz paramétrico. Los altavoces electrodinámicos convencionales ofrecen una directividad que depende directamente del radio del transductor y de la longitud de onda radiada. Sin embargo, el altavoz paramétrico consigue una directividad que no muestra dependencia de estos parámetros, superando con creces la directividad de los altavoces convencionales, incluso cuando estos cuentan con bocinas o reflectores. Para evaluar el comportamiento de estos dispositivos, se ha llevado a cabo la construcción y caracterización de un array de 45 transductores para su comparación con altavoces electrodinámicos convencionales en términos de directividad, sensibilidad, respuesta en frecuencia y distorsión. El array ha resultado ser apto para la generación de sonido audible con ultrasonidos, quedando demostrada la gran directividad que ofrecen los altavoces paramétricos, incluso para la baja frecuencia donde los altavoces convencionales resultan omnidireccionales. Además, este proyecto constituye un primer acercamiento a la acústica no lineal mediante el análisis de las causas de estas no linealidades y la implementación analítica de ecuaciones que modelan la propagación no lineal

    Escenarios virtuales interactivos 3D

    Full text link
    La Ortofotografía ha llegado a nuestras vidas aunque muchos no sepan siquiera lo que significa, esta técnica se basa en realizar fotografías aéreas que posteriormente son tratadas, mejoradas y/o modificadas con el fin de desarrollar, en sus inicios planos precisos del terreno o verificar las fronteras y lindes. Con la aparición de técnicas más avanzadas como Lidar se puede, además de realizar ortofotografías, realizar un barrido del terreno para su posterior tratamiento con el que conseguir un terreno en 3D casi perfecto y con una precisión asombrosa. Amparándonos en estos dos sistemas y mediante la investigación trataremos de desarrollar una aplicación en JAVA la cual sea capaz de personalizar un globo terráqueo al máximo posible, mediante la inserción de puntos de interés, ortofotos personalizadas en mayor o menor calidad y modelos digitales del terreno que pueden ser adquiridos mediante licencias de uso o mediante otros canales gratuitos y legales. Para la realización de este proyecto se contará con la herramienta de desarrollo Eclipse y la API WorldWind, la cual es open source, que cuenta con potentes librerías ya implementadas para mostrar la información referente a cartografía u otros elementos. También se quiere realizar un estudio de las soluciones que existen actualmente en el mercado, como pueda ser el driver DielmoOpenLidar, Google Earth, Google Maps o Microsoft Maps. Se incidirá en sus virtudes pero también en sus defectos, comparando cuales son estos y tratando de mejorar en la medida de lo posible aquellos que estén en nuestro alcance. Por último también se tratará la integración en web para dar una mayor libertad a la aplicación además de una mayor globalización y alcance al mismo, para ello se contará con un servidor web Apache y la integración de JAVA en web vía APPLET, estando toda la carga posible en el lado servidor, para que el usuario perciba el menor retraso posible en cuanto a carga de proceso.Mora Espí, JV. (2012). Escenarios virtuales interactivos 3D. http://hdl.handle.net/10251/17050.Archivo delegad

    Introducción a las infraestructuras de datos espaciales

    Get PDF
    Este libro «Introducción a las Infraestructuras de Datos Espaciales» se plantea con esta finalidad, eminentemente didáctica, para explicar qué es una infraestructura de datos espaciales, qué aporta sobre, y como complementa a, los sistemas de información geográfica y, sobre todo, las bases tecnológicas, normativas y de especificaciones en las que se asienta. ...Peer ReviewedPostprint (published version

    Análisis del campo sonoro y la molestia de la contaminación acústica en ciudades mediante el uso de redes de sensores.

    Get PDF
    En la constante evolución en la que viven las ciudades actuales, la preocupación por la contaminación acústica y la concienciación sobre el ruido se han incrementado en los últimos años. El aumento de los niveles de contaminación acústica ha hecho que se ponga más atención en el ruido y sus efectos en las personas, y cómo éstas pueden estar de afectadas, ya no de manera directa con problemas de salud, pero sí en cómo el ruido afecta más subjetivamente de una manera negativa en la calidad de vida, percibiéndose como molestia acústica. Los decibelios se llevan midiendo desde hace décadas, pero la molestia percibida por las personas originada por el ruido se ha empezado a estudiar más recientemente. La tendencia de las ciudades actuales a un cambio de modelo, adoptando el concepto de ciudad inteligente, ha hecho que éstas se empiecen a valer de una serie de herramientas tecnológicas para su avance y desarrollo. El crecimiento de las ciudades busca ser sostenible, a la vez que ser capaz de aumentar la calidad de vida de las personas que viven en ellas, siendo por ello necesarias nuevas fuentes de información sobre todos los aspectos de la ciudad y sus ciudadanos. Esta tesis se enfoca en el uso de las tecnologías actuales de las redes de sensores y de los dispositivos de Internet of de las Cosas y cómo se pueden usar estas tecnologías para la evaluación del ambiente sonoro de las ciudades, con el objetivo de poder evaluar la sensación de molestia que tendrían los habitantes de esas ciudades. En el pasado, las redes de sensores se han utilizado en muchos campos, y en la acústica han sido utilizadas en diversas aplicaciones. Normalmente, estas aplicaciones se enfocan en la adquisición de niveles de presión sonora, y diversos parámetros estadísticos relacionado con estos niveles, pero las sensaciones de las personas no quedan englobadas en su totalidad con estos parámetros. Es por ello que en este trabajo se ha propuesto la implementación en dispositivos acústicos autónomos del cálculo de parámetros psicoacústicos con el objetivo de aportar contribuciones en este campo de investigación. Para acercar aún más los análisis de estos dispositivos a la respuesta humana, se ha diseñado un sistema que realiza de manera previa una adaptación de las señales capturadas para emular la señal binaural que captaría el sistema auditivo humano. Esto se hace por medio de la captación de señales monofónicas a través de un sistema de array de micrófonos en el dispositivo y procesando estas señales. Posteriormente, se ha implementado un proceso que permite calcular la molestia sonora provocada por la señal binaural sintetizada en la fase anterior. Finalmente, se ha llevado a cabo una evaluación del dispositivo en varias aplicaciones tanto reales como de laboratorio. En estas pruebas se pone en funcionamiento el dispositivo propuesto en este trabajo de investigación, con el objetivo de estudiar el ambiente sonoro. También se compara la precisión de cómo el dispositivo es capaz de evaluar la molestia acústica a la que pueden estar expuestas las personas con respecto a los métodos de evaluación clásicos. En general, los resultados muestran que el uso de las tecnologías de las redes de sensores acústicos y su implantación en ciudades es una herramienta de utilidad para conocer más sobre éstas. Además, la creación de un nuevo dispositivo que es capaz de evaluar por medio de parámetros psicoacústicos la sensación subjetiva de molestia acústica abre las puertas a obtener información valiosa sobre la calidad de vida de los habitantes de las ciudades.Ingeniería, Industria y Construcció

    Cancelación de Ecos Multicanal

    Get PDF
    La idea básica de la cancelación de ecos es bloquear la señal desde la sala remota para que no se realimente. Para ello se coloca un sistema adaptativo en medio que genere “idealmente” la misma señal que proviene de la sala local y se envía de vuelta a la sala remota la diferencia entre la señal estimada y la que retorna de la sala local, en lugar de esta última. La introducción de múltiples canales permite capturar la espacialidad de los locutores pero introduce una alta correlación entre las señales que afecta el comportamiento del cancelador adaptativo. Este inconveniente de mal condicionamiento del sistema, conocido como problema de la no‐unicidad, puede hacer incluso que el sistema adaptativo converja a una solución no única. En la cancelación de ecos multicanal estas soluciones no sólo dependen de las respuestas al impulso de la sala local, sino también de las respuestas al impulso de la sala remota. Las respuestas al impulso de las salas típicas en aplicaciones manos libres, que requieren de la cancelación de ecos, son extremadamente grandes (del orden de miles de coeficientes). La enorme longitud de las respuestas al impulso no sólo se traduce en un gran volumen de operaciones matemáticas sino también en un retardo inadmisible perceptualmente. En la primera parte de esta tesis se estudia el problema de la cancelación de ecos acústicos multicanal. A continuación se exploran y comparan diferentes técnicas de filtrado adaptativo multicanal en la búsqueda de la idoneidad para la aplicación de la cancelación de ecos. Para ello se establecen ocho experimentos: el primero y el cuarto, de un solo canal (caso más simple); el segundo, quinto y séptimo, de dos canales (caso estéreo: más simple del caso multicanal general); el tercero, sexto y octavo, de cinco canales (caso multicanal típico en aplicaciones domésticas y de videoconferencia). Los experimentos son elegidos de manera tal que constituyan casos críticos con una muy elevada correlación inter‐canal para poder estimar el comportamiento de los algoritmos en una situación muy crítica. Estas técnicas de filtrado adaptativo no pueden ser aplicadas directamente a un sistema de cancelación de ecos acústicos multicanal adaptativo por el retardo y la carga computacional que imponen las largas respuestas al impulso acústicas involucradas. Por ello, en la segunda parte de la tesis, se estudian arquitecturas de filtrado adaptativo multirresolución para abordar el problema en el dominio del tiempo y la frecuencia: descomposición en subbandas y filtrado adaptativo en el dominio de la frecuencia particionado por bloques. Por último se hace un estudio para la decorrelación inter‐canal que busca un mejor condicionamiento del problema: la decorrelación mediante la transformación adaptativa de Karhunen‐Loève y la introducción de ruido de banda ancha decorrelado. Esta última técnica permite afrontar el problema de la cancelación de ecos multicanal sin detección de doble locución. Finalmente se intenta buscar una valoración subjetiva de los resultados. En los apéndices se tratan dos temas muy importantes para el desarrollo de esta tesis. El primero trata de la simulación y medición de salas. Ambas técnicas son muy importantes para la cancelación de ecos multicanal porque permiten disponer de respuestas al impulso en diferentes condiciones, correlación, etc. sobre las que basar las simulaciones de los algoritmos desarrollados y analizados en la tesis. La segunda trata de las técnicas de gradiente conjugado que, aunque son un algoritmo de optimización para la minimización de funciones, por su importancia en esta investigación merece un estudio detallado. El uso de las técnicas de gradiente conjugado en la cancelación de ecos acústicos multicanal es uno de los aportes fundamentales de esta investigación y de ello se derivan diferentes algoritmos adaptativos
    corecore